查看原文
其他

IDEA郭健团队Think-on-Graph,研发「思维图谱」提升大模型性能

IDEA研究院 IDEA数字经济研究院
2024-08-22


大模型“一本正经地胡说八道”的幻觉(Hallucination)问题,一直是制约其广泛应用的瓶颈。由碎片化语料训练而来的大模型,不仅在深度推理方面表现不佳,也存在推理过程不透明、难以自我纠错的短板。
 近日,粤港澳大湾区数字经济研究院(简称“IDEA研究院”)人工智能金融与深度学习研究中心研发 Think-on-Graph(思维图谱)技术,让大模型(LLM)与知识谱图(KG)的紧耦合交互,驱动LLM智能体在KG的关联实体上一步一步搜索推理出最优答案。
实验结果表明,Think-on-Graph在深度推理问题上的表现较ChatGPT最多可提升253%,并将知识推理过程透明化,实现知识的可追溯、可纠错与可修正。与此同时,Think-on-Graph还具备免训练即插即用、低算力消耗、实时知识更新等特性,在众多实际场景中有广泛的应用潜力。
我们先通过一个案例,来认识Think-on-Graph的不同之处。

问:“金庸小说中段誉和洪七公谁的武功更高”?



段誉和洪七公分别为《天龙八部》与《射雕英雄传》的重要角色,但两者从未在同一部作品中出现。这类“关公战秦琼”的提问,对LLM来说挑战不小。
以下是GPT-4的回答:

不难看出,经碎片化语料训练而出的LLM难以胜任“线索分析”型的深度推理问题:

► 首先,幻觉现象依旧明显,比如回答中“段誉……拜慕容复为师,学会六脉神剑”、”洪七公……是黄药师的同门师兄”在小说中未曾出现。

►此外,GPT-4对两位人物武功水平的比较也缺少深度逻辑分析,更多是罗列表象事实,如“段誉……接触武学的时间相对较短”和“洪七公则是经过多年苦练”,并不能直接推出“洪七公的武功修为……应该优于段誉”这个结论。

接下来,我们看看 Think-on-Graph 的答题思路:


Think-on-Graph的回答不仅逻辑条理清晰,更可追溯出逻辑推理链条,这正得益于LLM推理能力与KG结构化知识的深度融合:
► 根据KG中“六脉神剑是大理段氏最强武功”而“一阳指是大理段氏常用武功”的信息,LLM可以推理出“六脉神剑”强于“一阳指”,从而推理出段誉的武功强于一灯大师;
► 继而又根据KG上的“一灯大师和洪七公同属‘华山四绝’”,推理出两人武功相当,最后得出段誉的武功高于洪七公的结论。



紧耦合LLM与KG实现深度推理


如上文所述,Think-on-Graph 融合了大模型和知识图谱的优势,从而实现能力的质的提升。



总的来说,LLM更擅长推理、意图理解、内容生成和学习,而KG因其结构化的知识存储方式,更擅长逻辑链条推理并具有更好的推理透明度和可信度,可见他们之间互补性很强。
如果用适当的方法融合LLM与KG的优点,取长补短,KG就有机会帮助提升LLM的推理能力和知识水平。反过来,大模型的推理能力也可以帮助KG的构建、完善、纠错和质量控制,提升知识图谱的准确度、覆盖度和完备度。
事实上,通过LLM与KG的融合来弥补LLM能力短板,是近期的研究热点之一。当下主流方法分为两类。
第一类方法是在模型预训练阶段融合二者。这类方法又细分为:1.在LLM模型输入层融合,利用KG扩充输入层特征;2.在LLM模型网络层融合,利用图表示等技术将KG嵌入到LLM网络架构中;3.在LLM模型输出层融合,利用KG来约束模型训练任务。此类方法在知识层面融合了LLM与KG,但需要额外的训练时间,且牺牲掉KG的实时知识更新能力与可解释性等天然优势。

第二种方法则是利用KG的知识结构,通过适当的自动化提示工程(prompt engineering)来实现融合。这其中又分为两种范式:松耦合范式紧耦合范式。本文提出的Think-on-Graph算法就属于后者,通过将LLM与KG的优势深度融合,实现推理能力的突破。
松耦合范式 
在松耦合范式中,大模型的角色为“翻译官”,试图理解用户输入的自然语言背后的意图,并 “翻译”成KG查询语言,再将KG上的搜索结果反向“翻译”给用户,可以看成一种特殊的大模型信息检索增强。此范式存在的局限性是,它严重依赖KG本身的信息质量和完整度,在KG信息缺失的情况下,无法直接借助LLM的内在知识和推理能力来补齐。
紧耦合范式 

在紧耦合中,大模型充当Agent(智能体)“跑腿”角色,在KG的实体结点上一步一步地搜索与推理,直到推出最终答案。在此范式下,大模型亲自参与到KG的每一步推理中,与KG紧密互动,信息互补,从而提升整体的推理能力。
以下,我们用一个例子来解释紧耦合范式的优势。

问:“堪培拉所在国家当前的多数党是哪个党派”?





► ChatGPT由于信息只更新至2021年,生成错误答案“自由党”。
► 松耦合范式虽然引入了具有最新信息的知识图谱,但由于其中缺少了“多数党”这一信息,导致推理卡在中间步骤,无法完成。
► 紧耦合范式中,大模型通过猜测“议会制国家的政府首脑(总理)通常也是多数党领袖”,弥补了知识图谱在“多数党”信息上的缺失,从而绕道推理出正确答案。



Think-on-Graph,

高效实现紧耦合


紧耦合范式提供了一种让LLM与KG联合建模的范式。就具体算法而言,Think-on-Graph借鉴了Transformer在自然语言推理中常用的beam-search算法思路,实现高效搜索和推理。该算法本身是一个迭代过程,在每次循环内,要先后完成两个任务:搜索剪枝与推理决策。
搜索剪枝的目的是找出最有希望成为正确答案的推理路径—— 以当前KG实体为中心,去遍历搜索与其相邻的每一个实体,再用LLM计算出相对打分(分值高低代表此新实体加入已­有推理路径后,可以正确回答原问题的能力),并将得分最高的N个(N=搜索宽度) “邻居”实体所引出的N条候选推理路径保留下来。
推理决策任务则用LLM来判断已有的候选推理路径是否足以回答问题,如果判断为否,则继续迭代到下一次循环,直到找出满意答案。
我们依然借用上述例子来解释Think-on-Graph算法的思路。

问:“堪培拉所在国家当前的多数党是哪个党派”?


上图演示了用搜索宽度N=2的beam-search来实现Think-on-Graph推理。在搜索剪枝任务中,LLM从关键词Canberra出发,匹配到KG中最接近(或一致)的实体Canberra。

此后流程如动图所示,LLM 从实体Canberra出发,分别搜索了5个“关系 → 实体”对,并对其分别打分:continent → Australian continent 获得3分, part of → Canberra-Queanbeyan 获得2分,official-language → English获得1分,capital of → Australia获得8分,located in → Australian Capital Territory 获得7分。

对5组“关系 → 实体”对的得分进行从高到低排序后,LLM选取得分最高的2个保留下来,形成了两条候选推理路径:

1. Canberra - located in → Australian Capital Territory 
2. Canberra - capital of → Australia 
在推理决策任务中,LLM对以上两条候选推理路径进行评估,通过Yes/No回答,反馈Think-on-Graph算法是否已找到满意的答案并结束迭代。显然,在这个例子中,LLM的判断是“否”,因此进入第二轮迭代,分别以实体Australian Capital Territory和实体Australia为中心,来搜索其周边相邻的实体,再次选取出两条得分最高的候选路径。

1. Canberra - capital of → Australia - head of government → Anthony Albanese 
2. Canberra - capital of → Australia - office held by head of government → Prime Minister of Australia 

第二轮推理决策中,上述两条路径再次被LLM否决,因此开启第三轮迭代,得分最高的两条推理路径如下:

1. Canberra - capital of → Australia - head of government → Anthony Albanese - member of → Labor Party 
2. Canberra - capital of → Australia - head of government → Anthony Albanese - Politician 

这一次,LLM经过认为当前已经获取足够的信息来回答问题,于是停止了算法迭代,将包含Labor Party(工党)的答案输出给用户。



让推理可解释,

让知识可追溯,让错误可修正


在金融、制造业、物流、医疗、法律、公共服务等容错率极低的严肃领域,精度和准确度的重要性不言自明。因此,大模型推理的可信度、透明度与修正能力,对其在此类场景的可落地性至关重要。

Think-on-Graph的另一主要优势,是实现了大模型的“推理可解释、知识可追溯、错误可修正”,特别是借助人工反馈和LLM的推理能力,发现并修正KG上的错误信息。

为便于理解,我们设计一个实验:在前述“段誉 vs.洪七公”案例的KG中,故意掺入错误信息“大理段氏的最强武功是一阳指,一般武功是六脉神剑”(事实正相反),来观察推理结果有何变化。

由于KG的错误知识,Think-on-Graph推理出错误的答案“洪七公的武功高于段誉”。然而,由于Think-on-Graph中内置了“自我反思”能力,即当判断输出答案的可信度不足时,会自动回溯KG上的推理路径,检查路径中的每一个三元组,并通过LLM自有的知识将KG上内容“可疑”的三元组挑选出来,向用户反馈可疑信息的分析和纠错建议,由用户决定是否纠正。在本例中,Think-on-Graph在检测到答案可信度不高后,自动进行了“自我反思”并提供了纠错建议。

根据用户的要求,Think-on-Graph可以修正可疑三元组,并再次推理出新的答案。



在多个问答数据集上

取得SOTA,表现超越ChatGPT


研究团队在四类知识密集型任务(KBQA, Open-Domain QA, Slot Filling, Fact Checking)共9个数据集上对ToG算法进行了评估,以评价其推理准确度。


从结果可见,在所有数据集上,Think-on-Graph相较于不同prompting策略(IO, CoT以及CoT-SC)下的ChatGPT均有显著提升。例如,在Zeroshot-RE数据集上,基于CoT的ChatGPT精度为28.8%,而同样以ChatGPT作为底座LLM的Think-on-Graph精度达到88%。

团队发现,当Think-on-Graph的底座模型从ChatGPT(GPT-3.5)升级为GPT-4后,其推理精度进一步提升,在6个数据集上取得了SOTA,其余3个数据集中的CWQ上十分接近SOTA。

由于Think-on-Graph完全没有在任何一个测试数据集上进行过监督学习性质的增量训练或增量微调,上述结果反映了Think-on-Graph即插即用的优势。

此外,研究还发现,即便将Think-on-Graph的底座模型替换成小规模LLM(如LLAMA2-70B),依然可在多个数据集上超过ChatGPT本身的表现,这为大模型使用者提供了一条低成本、低算力的可行技术路线。



Think-on-Graph优势总结


深度推理:发挥KG结构化知识在逻辑推理上天然的优势,增强LLM在知识深度推理任务上的能力。

可信推理:充分发挥知识图谱数据结构化的优势,借助大模型的推理能力实现知识可追溯和知识可纠错。

知识实时性KG的知识可以更快的更新,可弥补LLM训练时间长、知识更新慢的缺点。

低算力消耗小规模LLM融合知识图谱可以在很多场景下取得比大规模LLM更好的表现,可显著降低算力成本、部署成本和时间成本。

即插即用可根据具体场景和需求灵活对接和更换不同的LLM与KG,无额外训练成本。



研究团队介绍


Think-on-Graph的工作主要在 IDEA研究院人工智能金融与深度学习研究中心(IDEA-FinAI)完成。IDEA-FinAI的目标是研发世界前沿的AI技术让金融更精准、更迅捷、更安全,核心研究项目包括:Quant4.0下一代AI量化投资技术、知识驱动大模型技术、金融行为知识图谱技术等,及其应用产业落地与商业化。
论文有四名共同第一作者:IDEA研究院资深研究员徐铖晋博士,研究实习生孙嘉硕、汤陆明远和王赛卓。论文通讯作者为IDEA研究院郭健博士。除IDEA之外,本论文参与方还包括微软亚洲研究院、香港科技大学、香港科技大学(广州)、厦门大学和美国南加州大学。

► 论文下载链接:https://arxiv.org/abs/2307.07697

► GitHub链接:https://github.com/IDEA-FinAI/ToG


如想了解IDEA-HKUST(GZ)联合博士培养项目,请前往:https://www.idea.edu.cn/research/idea-co-edu.html此项目面向全球招生,研究方向聚焦人工智能与数字经济前沿科技。


继续滑动看下一个
IDEA数字经济研究院
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存